首页 >
春风化雨 >
牧长心语 >
黄雅格
黄雅格
上载日期:12/10/2020
脑机接口,噩梦还是祝福?—对人工智能的伦理与神学反思(二)—黄雅各老师
附件
HYG_P201012
导言:在今年9月4日,第12届网路宣教论坛的第二场,是对人工智能进行专场探讨。其中拥有机器人工学和基督教护教学双博士的黄雅格老师,就此进行了伦理和神学的反思。我们一连4个星期刊载其中的内容,今天是第二篇。 人工智能一定是噩梦吗? 判断是否是“噩梦”的关键,是不是只要脑壳不开洞,脑波与机器连接就比较能够接受呢?相信许多朋友和信徒会有这样的疑问,我们再来看下一个视频,这是帮助帕金森病人控制稳定动作的研究,称为Deep brain stimulation (DBS),用深入脑部的手术,植入电极,并释放出电波来控制帕金森症手脚的颤抖。这项研究从1997年开始,于2002开始人体试验,2016年获FDA(编者按:美国食品药品监督管理局U.S. Food and Drug Administration)批准。原本颤抖无法控制的手,可以改善到能书写签名。 类似的研究,也能应用到癫痫症的病人身上,但是脑部的部位和使用的信号不同。现在医学可以做到在癫痫发作之前测试到异常的脑波信号,进而用电极放出适当信号反制异常信号,甚至能预防和保护病人因癫痫发作引起的意外。 斯坦福大学从2004年开始研发这项技术,于2014年获得FDA的批准。这项技术被称为“脑波步伐调节器”(Responsive neurostimulation (RNS) system (NeuroPace®))。其实,类似的心率调节器(Pace Maker)和心脏电击除颤器(defibrillator)等在医学领域用在病人身上已多年,救治了许多人的性命。 关键在于设计者 由此可见,“人工”(artificial)制造并不见得一定不好,或者一定是噩梦或灾害。若是以“人工精制”与“量产制造”比较,当然是“人工”制作好。因而,这人工的“人”是关键。AI(人工智能)是人训练出来的,什么样的信息与数据输入计算机,训练出来的AI就会被它的设计者左右。若这设计者“人”不好,在辨别和应用信号的处理上具有邪恶的意念,那设计出来的“人工智能”当然就不好,是可以成为噩梦与祸害的! 机器人的道德律 机器人的道德律,最早是由Issac Asimov提出来的。他是一位非常着名的科幻小说家,本身也是一位科学家、生化博士、大学教授。他在1942年的小说“I, Robot”(《我,机器人》)中提出了3条机器人道德律: 1.机器人绝不可伤害人,或让人被伤害; 2.机器人必须服从人类给的命令,除非违反第一条; 3.机器人必须保护自己,但这保护的行动不可违反第一和第二律。 但是目前来看,现代社会所发明的各式各样的军用机器人,目的确是要伤害人的!因此,2010年,英国的工程师与人工智能学会经过开会商讨,提出下列几条设计机器人的伦理原则(当然其前提是设计者必须认同这些道德观): 1.机器人的设计,若不是因国家安全绝不可使其唯一目的成为杀人或伤人; 2.人类,而不是机器人,必须为机器人的行动负责。机器人是人类设计的工具,达成人类制定的目的; 3.机器人的设计必须保证和维系它的安全; 4.机器人是人造的器具,不应该设计出利用使用者心理的弱点而操控人、让人产生心理依赖的机器人,机器人与真人必须能够分辨; 5.谁是一个特定机器人有法律责任的设计者,必须能够追查得到。 由此看来,不是机器人本身应具有伦理基础,而是设计机器人的设计者必须要有伦理道德。 (待续) 往期链接: <脑机接口,噩梦还是祝福?—对人工智能的伦理与神学反思(一)> https://lts38.net/mod/forum/discuss.php?d=7091